从记录的神经活动中解码刺激或行为是研究中研究大脑功能的常用方法,也是脑机接口和脑机接口的重要组成部分。即使是从小的神经群体中也能进行可靠的解码,因为高维神经群体活动通常占据低维流形,而这些流形可以用合适的潜在变量模型发现。然而,随着时间的推移,单个神经元活动的漂移和神经记录设备的不稳定性可能会很大,使得几天和几周的稳定解码变得不切实际。虽然这种漂移无法在单个神经元层面上预测,但当底层流形随时间稳定时,连续记录会话中的群体水平变化(例如不同的神经元组和记录数据中一致神经元的不同排列)可能是可以学习的。在会话中对一致和不熟悉的神经元进行分类,并考虑在记录会话中记录数据集中一致记录神经元顺序的偏差,可以保持解码性能。在这项工作中,我们表明深度神经网络的自监督训练可用于补偿这种会话间变异性。因此,连续自动编码模型可以在未来几天内为完全未见过的记录会话保持最先进的行为解码性能。我们的方法只需要一个记录会话来训练模型,这是朝着可靠、无需重新校准的脑机接口迈出的一步。
主要关键词